MIT新闻 - 人工智能领域信息情报检索

MIT新闻致力于向媒体和公众传达学生、教职员工和整个MIT社区的新闻和成就。

释放沸腾的隐藏力量——用于能源、空间及其他领域

Unlocking the hidden power of boiling — for energy, space, and beyond

Matteo Bucci 副教授的研究为一种古老的工艺提供了新的见解,可以提高许多工业系统中的传热效率。

生态学家发现计算机视觉模型在检索野生动物图像方面的盲点

Ecologists find computer vision models’ blind spots in retrieving wildlife images

生物多样性研究人员测试了视觉系统检索相关自然图像的能力。更先进的模型在简单查询上表现良好,但在更多特定于研究的提示上表现不佳。

初创公司的自主无人机可精确跟踪仓库库存

Startup’s autonomous drones precisely track warehouse inventories

由 Mohammed Kabir ’21 创立的 Corvus Robotics 正在使用能够在 GPS 被拒环境中导航的无人机来加快库存管理。

麻省理工学院欢迎 Frida Polli 成为其下一位访问创新学者

MIT welcomes Frida Polli as its next visiting innovation scholar

这位神经科学家转型的企业家将由麻省理工学院施瓦茨曼计算学院接待,并专注于推动麻省理工学院行为科学与 AI 的交叉发展。

需要研究假设?问问 AI。

Need a research hypothesis? Ask AI.

麻省理工学院的工程师开发了 AI 框架来识别可以推进生物启发材料的证据驱动假设。

麻省理工学院工程师开发“高层” 3D 芯片

MIT engineers grow “high-rise” 3D chips

电子堆叠技术可以成倍增加芯片上的晶体管数量,从而实现更高效的 AI 硬件。

麻省理工学院的跨学科 NEET 计划非常适合

When MIT’s interdisciplinary NEET program is a perfect fit

大三学生凯蒂·斯皮瓦科夫斯基 (Katie Spivakovsky) 描述了她从新工程教育转型到生物医学研究及其他领域的历程。

麻省理工学院的研究人员推出了 Boltz-1,这是一种用于预测生物分子结构的完全开源模型

MIT researchers introduce Boltz-1, a fully open-source model for predicting biomolecular structures

由于 AlphaFold3 等模型仅限于学术研究,该团队建立了一个等效的替代方案,以更广泛地鼓励创新。

研究表明,人工智能聊天机器人可以检测种族,但种族偏见会降低回应同理心

Study reveals AI chatbots can detect race, but racial bias reduces response empathy

麻省理工学院、纽约大学和加州大学洛杉矶分校的研究人员开发了一种方法,帮助评估 GPT-4 等大型语言模型是否足够公平,可以在临床上用于心理健康支持。

Lara Ozkan 被评为 2025 年马歇尔学者

Lara Ozkan named 2025 Marshall Scholar

麻省理工学院的这名大四学生将在英国剑桥大学和伦敦帝国理工学院攻读研究生。

麻省理工学院附属机构被任命为 2024 年施密特未来 AI2050 研究员

MIT affiliates named 2024 Schmidt Futures AI2050 Fellows

麻省理工学院的五名教职员工和另外两名校友被授予奖学金,以推动有益人工智能的研究。

教会机器人极限,安全地完成开放式任务

Teaching a robot its limits, to complete open-ended tasks safely

“PRoC3S” 方法通过模拟测试每个步骤帮助法学硕士制定可行的行动计划。这一策略最终可以帮助家用机器人完成更模糊的家务要求。

研究人员表示,医疗领域的人工智能应该受到监管,但不要忘记算法

AI in health should be regulated, but don’t forget about the algorithms, researchers say

在最近的一篇评论中,麻省理工学院、Equality AI 和波士顿大学的团队强调了医疗保健领域对人工智能模型和非人工智能算法的监管存在差距。

研究人员在保持或提高准确性的同时减少了人工智能模型中的偏见

Researchers reduce bias in AI models while preserving or improving accuracy

一项新技术可以识别并删除对机器学习模型失败影响最大的训练示例。

研究:一些语言奖励模型表现出政治偏见

Study: Some language reward models exhibit political bias

麻省理工学院建设性沟通中心的研究发现,即使奖励模型是在事实数据上进行训练,也会出现这种影响。

使 AI 能够用通俗易懂的语言解释其预测

Enabling AI to explain its predictions in plain language

使用 LLM 将机器学习解释转换为可读的叙述可以帮助用户更好地决定何时信任模型。

Daniela Rus 荣获 John Scott 奖

Daniela Rus wins John Scott Award

麻省理工学院 CSAIL 主任兼 EECS 教授因其机器人研究而共同获得该荣誉,该研究扩展了我们对机器人的理解。

引用工具为可信的 AI 生成内容提供了一种新方法

Citation tool offers a new approach to trustworthy AI-generated content

研究人员开发了“ContextCite”,这是一种跟踪 AI 来源归属并检测潜在错误信息的创新方法。